Transparente Schichten - Perspektiven der Informatisierung des Wissens

نویسندگان

  • Gerhard Gamm
  • Stephan Körnig
چکیده

Ausgehend von der aus unserer Sicht höchst problematischen Unterscheidung zwischen propositionalem und nicht-propositionalem Denken, befassen wir uns mit ähnlich gelagerten Unterscheidungen, die bei der Modellierung von Wissen durch Informationssysteme in Anspruch genommen werden. Hierbei wird insbesondere die Unterscheidung zwischen explizitem und implizitem Wissen kritisiert, sofern sie von unzutreffenden Annahmen über den Erwerb, den Umgang, die Weitergabe oder die sinnvolle Nutzung von Wissen ausgeht. Die sog. „Semantic Web“ Initiative, die auf Tim Berners-Lee (dem „Erfinder“ des Internet) zurückgeht und gegenwärtig einen Teil konkreter Standardisierungsaktivitäten des W3C (Konsortium des World Wide Web) ausmacht, wird in diesen Zusammenhang gestellt und diskutiert. Das Interesse an den sog. „Ontologien“, die als ein vielversprechendes Werkzeug für die Integration von Informationssystemen auf semantischer Ebene angesehen werden, ist aus unserer Sicht begrüßenswert es wird aber darauf hingewiesen, dass solche Instrumente auf Kontexte angewiesen sind, die prinzipiell nicht durch sie selbst bereitgestellt werden können. Anhand des Begriffs der Transparenz wird diese Kontextualisierung dargestellt und es werden Forderungen formuliert, die aus unserer Sicht für eine gelingende Praxis des Wissensmanagements unabdingbar sind. 1. Einführung Implizites Wissen und seine Kontexte In einem bemerkenswerten Aufsatz Ein Rahmen für die Wissenspräentation (A frame work for representing knowledge) [1] geht Minsky der Frage nach, wie Rahmen, auf die wir uns in unserem Alltagsleben und -handeln stützen, von Computerprogrammen bearbeitet werden, wie Rahmen, Kontexte, Hintergrundwissen, Frames of Reference, Perspektiven usf. auf solche für informationsverarbeitenden Systeme kompatible Wissensstrategien „heruntergebrochen“ werden können: Wie können Kontexte von Computern repräsentiert werden? Wie sind Rahmen oder Kontexte in Softwarearchitekturen integrierbar? Wie lassen sie sich in Computerprogramme übersetzen? Minskys Beispiel ist unter anderem der Rahmen oder das Hintergrundwissen, das ein Kind aktivieren muss, wenn ein anderes Kind Geburtstag hat und es ihm ein Geschenk machen will: Welches Rahmenwissen muss man aktualisieren, um Motive, Handlungen Reaktionen richtig einzuschätzen, wenn zum Beispiel das Kind, das ein Geschenk gekauft hat, von einem dritten, etwa einem anderen Kind hört, das betreffende Kind hätte das Geschenk schon, einen Drachen beispielsweise. Es geht darum, die impliziten Voraussetzungen des Wissens, die wir wie selbstverständlich machen, zu benennen, zum Beispiel die sozialen Präsuppositionen zu explizieren, die man für ein angemessenes Verständnis einer Geschichte bzw. eines Sprachspiels oder der folgenden Sätze braucht. „Er hat bereits einen Drachen. Er möchte, dass Du ihn zurücknimmst.“ Minsky fährt fort: „Doch welchen Drachen soll sie zurücknehmen? Wir wollen sicher nicht, dass Petra Peters alten Drachen zurücknimmt. Um den Bezugsgegenstand des Pronomens ‚ihn‘ zu bestimmen, muss man eine Menge über das vorausgesetzte Szenario wissen. Sicher bezieht sich ‚ihn‘ auf den vorgeschlagenen neuen Drachen. Woher weiss man das aber? (Man beachte, dass jede einzelne Erklärung für sich unzureichend sein kann). Im Allgemeinen beziehen sich Pronomen auf die zuletzt erwähnten Gegenstände, dieses Beispiel zeigt jedoch, dass der Bezugsgegenstand von mehr als der lokalen Syntax abhängt. Nehmen für einen Augenblick mal an, dass wir versuchen, den Standardunterrahmen ‚ein Geschenk kaufen‘ anzuwenden.“ (Minsky 101, 102). Uns geht es im Augenblick nicht darum, Minskys Voraussetzungsanalyse des Wissens zu diskutieren es geht zunächst um die Frage, nach der Gesamtstrategie, die Minsky und ein Teil der KI-Forschung verfolgen, wenn sie Kontext und Rahmenwissen als implizites Wissen konzeptualisieren, das man, in welcher Form auch immer, explizit machen muss. Das heisst, man verwandelt das implizite Wissen in ein gegenständliches Wissen, oder besser: man transformiert, überträgt es in ein Wissen, das eine propositionale Form hat. Man sucht sich des Rahmenwissens zu vergewissern, indem man es in allgemeine Standardannahmen (Standardrahmen) übersetzt. Diese Standardannahmen sollen gleichsam Standardsituationen widerspiegeln, Situationen also, die als typisch bzw. prototypisch gelten können. Kurz, die Frage lautet, lässt sich Kontextwissen nach Art von Sachverhaltswissen errechnen, das heißt als vorher festgelegte Auswahl von Objekten, Eigenschaften und Relationen? Sind Kontexte gewöhnliche „Gegenstände“? Gehorchen sie üblichen gegenstandsanalogen Regeln? Sind Kontexte Gegenstände herkömmlicher Art in der Weise, dass sie propositionalisierbar sind, dass sie in Standardannahmen übersetzt werden können? Unsere Fragestellung zielt also keineswegs darauf, zu klären, ob Computerprogramme prinzipiell in der Lage sind, Wissen zu prozessieren oder zu modellieren. Es geht vielmehr darum, zu fragen, ob die Formalisierung von Wissen nicht zwingend in einen unendlichen Regress gerät, der dadurch entsteht, dass die Unterspezifiziertheit von Bestimmungen durch eine genauere Bestimmung des Kontextes eingeholt werden soll. So hat etwa Wittgenstein in seinen „Philosophischen Untersuchungen“ dargelegt, dass die „unanalysierte Form“ von Sätzen im Rahmen des Alltagswissens und -handelns eine Anschlussfähigkeit besitzen kann, die durch eine weitere Analyse entweder verloren geht oder nicht weiter „erhellt“ werden kann[2]. 2. Standardisierung und Werkzeuge zur Modellierung von Wissen An dieser Stelle ist es vielleicht ganz nützlich, einen Blick auf konkrete Anstrengungen in einem so scheint es zumindest weniger ambitionierten Bereich zu werfen, als den, in dem die KI-Forschung ihre Erfolge erzielen will. Es geht hierbei um die „Semantic Web“ Initiative zur Integration von Diensten und Angeboten im Internet. Schon hier wird sich zeigen, dass bei der Informatisierung des Wissens Kontexte als nicht-formalisierbare Bedingungen des Informationsaustausch präsent sind und dass die Strategie, diese in einem propositionalen Netzwerk „aller implizierten Propositionen“ einfangen zu wollen, aus prinzipiellen Gründen zum Scheitern verurteilt ist. Dies verstehen wir allerdings nicht so, dass die Informatisierung des Wissens nicht möglich wäre. Aus unserer Sicht wäre eine solche philosophische Position ohnehin belanglos: da diese Informatisierung schon längst große Teile des gesellschaftlichen Wissens durchdringt und fortbestimmt, gilt es vielmehr zu verstehen, unter welchen Bedingungen nun etwas „gewusst“ werden kann und in welcher Weise die hierbei in Anspruch genommenen Wissenstechnologien selbst einen Kontext für das Wissen geben. Vision des „Semantic Web“ Bei der Semantic Web Initiative geht es z.Zt. vor allem darum, die Integration von Informationssystemen zu automatisieren. An Geschäftsvorgängen im Internet können unterschiedliche Partner beteiligt sein (Banken, Abrechnungssysteme, Lieferanten, Suchdienste mit Verfügbarkeitsrecherche usf.). Im Hintergrund z.B. einer einfachen Internetbestellung müssen daher mitunter Dutzende unterschiedliche Informationssysteme miteinander kommunizieren, die intern völlig unterschiedlich organisiert sein können. Um so „offener“ ein solches System ist, d.h. um so leichter es für verschiedene Anbieter ist, in diesem „Konzert“ mitzuspielen, um so attraktiver werden die Angebote für den Kunden sein. Zugleich fällt damit eine Abstimmung der Informationssysteme „von Fall zu Fall“ aus. Es wird, so paradox es klingt, ein Standard benötigt, der die Offenheit des Informationsaustausches gewährleistet. Das in diesem Bereich bedeutendste Standardisierungsgremium ist das sog. W3CKonsortium, da es für die im World Wide Web benötigten „Beschreibungssprachen“ zuständig ist. Diese Sprachen reichen vom bekannten HTML, mit dem der Inhalt und die Gestaltung von Web-Seiten festgelegt werden können, bis hin zu WebOnt, das als ein allgemeiner „Rahmen“ für die Beschreibung von Konzepten, den sog. „Ontologien“1, zur Verfügung gestellt wird.2 Tim Berners Lee, der Direktor des W3C-Konsortiums, war zu Beginn der Arbeit dieses Konsortiums von einer weitaus weitreichenderen Zielsetzung die man mit Recht eine Vision nennen kann überzeugt. Er vertrat die Auffassung, das Web könne sich selbst zu einem gigantischen semantischen Netzwerk entwickeln, also zu einem globalen Wissensspeicher verbunden mit der demokratischen Zielsetzung eines „glei1 Diese Begriffswahl mag manchen problematisch erscheinen. Aus Sicht der Philosophie impliziert ein solcher Begriff jedenfalls weitaus mehr als das, was diese sog. Ontologien leisten. Diese dienen der Schematisierung von Konzepten, die bei der Strukturierung von Informationen zugrunde gelegt werden. Ontologien im philosophischen Verstande zielen dagegen auf eine (kategorial verfasste) Ordnung des Seins. Sie können deshalb auch Gegenstand der Kritik sein etwa indem das kategoriale Verfasstsein von Welt/Wirklichkeit bestritten wird. Die Konzeptualisierung von Informationsräumen kann dagegen nur mehr oder weniger „zweckdienlich“ sein. 2 Dieses Spektrum kann natürlich auch ganz anders „aufgespannt“ dargestellt werden. Unter www.w3.org kann man sich einen Eindruck von der Fülle der Standards verschaffen. chen Zugangs“ für alle. Wie wir mittlerweile wissen: Sowohl die Nutzbarkeit des Web als auch die reale Nutzung sind von solchen Vorstellungen weit entfernt. Neben der kommerziellen Besetzung des Internet die durchaus auch zur Attraktivität des Web beiträgt hat sich das Web als ein Schauplatz für Nebensächliches, Selbststilisierungen, Lustgewinnen usf. etabliert. Informationssuchende werden mit einer Heterogenität konfrontiert, die sich nur mittels selektiver Filter (z.B. Google, Bookmarks, Portale) auf ein erträgliches Maß reduzieren läßt. Wenn wir das Web dennoch als einen Informationsraum ansehen und bei der Suche nach Informationen alle möglichen verfügbaren und relevanten Angebote berücksichtigen wollen, dann stehen wir bekanntlich vor dem unlösbaren Problem einer vollständigen Webrecherche. Die aktuelle „Semantic Web“ Aktionslinie des W3C erscheint, vor diesem Hintergrund gesehen, mehr als das Eingeständnis gescheiterter Ambitionen, denn als die Fortschreibung der ursprünglichen Vision. Es wird nun eine Infrastrukturinitiative beschrieben, die spätere Zielsetzungen ermöglichen soll. Für die auf diese Infrastruktur später aufsetzenden Nutzungsformen weithin unsichtbar soll eine Schicht der Maschine-zu-Maschine-Kommunikation etabliert werden. „The Semantic Web is a vision: the idea of having data on the Web defined and linked in a way that it can be used by machines not just for display purposes, but for automation, integration and reuse of data across variant applications. In order to make this vision a reality for the Web, supporting standards, technologies and policies must be designed to enable machines to make more sense of the Web, with the result of making the Web more useful for humans.“ (W3C Semantic Web activity statement) Das maschinenfreundliche Web steht nun im Zentrum der Initiative, auf dass das Web letztendlich für den Menschen nützlich werde. Man kann hier durchaus von einer Verkehrung der Vision sprechen insbesondere dann, wenn der Verdacht besteht, dass schon die Schaffung dieser Infrastruktur auf hartnäckige Probleme stößt, die noch für Jahrzehnte Arbeitsfelder bestimmen werden. Diese Probleme sind keineswegs neu oder unerwartet, haben sie doch mit dem Unterschied von Syntax und Semantik zu tun, der bei jeder Phase des Aufbaus von Informationssystemen eine Rolle spielt. Die Modellierungsaufgabe bei der Anwendungsentwicklung Die „implizite Semantik“ von Informationssystemen wird in der Systemtheorie mit der Unterscheidung von Codierung und Programmierung thematisiert. Für die Codierung bestimmter Sachverhalte benötigt die Programmierung Kriterien. Solche Kriterien können z.B. an einem Datenmodell einer Anwendung abgelesen werden. Das Datenmodell zeigt dem Experten auf, wie die fachlichen Probleme (etwa die Verwaltung von Versicherungspolicen) in Datenstrukturen übersetzt werden und welche Abhängigkeiten zwischen den Daten durch dieses Modell berücksichtigt werden. Abgesehen davon, dass zwischen Modellbildung, der fachlichen Beschreibung und der Praxis zahlreiche Unterschiede bestehen, die meist erst bei der „Abnahme“ des Programmsystems deutlich hervortreten, ist schon die korrekte Überführung der durch die IstAnalyse ermittelte Semantik in entsprechende Datenstrukturen nicht immer zu garantieren. Weitere Kriterien, die in einem statischen Datenmodell nicht abgebildet werden können, werden durch den Code selbst erfüllt, der für eine korrekte Abbildung von Sachverhalten aus dem Datenmodell heraus zu sorgen hat bzw. für eine korrekte Encodierung von Sachverhalten im Datenmodell. In der Entwicklung der Programmiersprachen und der dazugehörigen Modellierungstechniken hat sich diese Problematik ebenso niedergeschlagen. Schon die so genannte „strukturierte Programmierung“ befaßte sich mit dem Unterschied zwischen Codierung und Programmierung. Sie stellt vor allem die Wartbarkeit von Programmcodes sicher, indem sie die Programmierlogik, nach der ein Programmierer vorgegangen ist, selbst explizit macht. Programmierer benutzen dann Struktogramme, die unabhängig von der verwendeten Programmiersprache als eine Art lingua franca die Zusammenarbeit von Teams erleichtern. Ebenso wird das Konzept der Wiederverwendbarkeit und der Modularität von Programmen unterstützt. Die Aufgabe der fachlichen Modellierung die Semantik der fachlichen Probleme in die syntaktischen Konstrukte und die konkreten Entitäten des Datenmodells zu überführen, wird hier allerdings noch nicht angegangen. Im Bereich der Datenmodellierung kann die Entity-Relationship Diagrammtechnik als eine Ergänzung angesehen werden.3 Die Datenzusammenhänge werden (zumindest in den neueren Varianten dieser Technik) im Kontext der fachlichen Modellierung selbst dargestellt und sie kann sich hierbei auf das relationale Datenmodell stützen, das zum konkreten Aufbau einer Datenbank führt. Im Bereich der objektorientierten Programmierung schließlich werden durch eine umfangreiche Diagrammtechnik unterschiedliche Aspekte der Semantik berücksichtigt. Taxonomien, Anwendungsfälle und Interaktionen werden durch eine standardisierte Diagrammtechnik beschrieben und können als Blaupausen bei der Anwendungsentwicklung genutzt werden. Zugleich ist mit dieser Programmiertechnik vollends deutlich geworden, dass es eine vollständige formalisierte Darstellungstechnik der „impliziten Semantik“ nicht gibt. Unterschiedliche Aspekte der Modellierung (so z.B. das Typsystem im Unterschied zum Komponentenmodell) werden als jeweils unterschiedliche Sichten festgehalten die Designer selbst müssen diese Sichten in ihren Köpfen zusammenbringen, vor allem dann, wenn es um Weiterentwicklung des Designs, Erkennen von Schwächen im Konzept usf. geht. Darüber hinaus wird im Bereich des objektorientierten Designs gefordert, dass bei der Entwicklung kontinuierlich Personen eingebunden sind, die das fachliche Knowhow aus Sicht der Anwender in den Gesamtprozeß einbringen. Auch dies aus der Erfah3 Was hier als „Phasen“ einer Entwicklung dargestellt wird, ist im Kontext realer Anwendungsentwicklung nicht so einfach zu trennen. So sieht z.B. Heide Balzert die EntityRelationship Diagrammtechnik als Teil der „strukturierten bzw. klassischen Entwicklung“ [3]. Hier sei ein Auseinanderfallen der unterschiedlichen Modellierungsmethoden zu konstatieren, während in der aktuellen objektorientierten Entwicklung dieselben Konzepte durchgängig benutzt werden könnten. Auch dem entspricht die aktuelle Entwicklung nicht ganz vor kurzem wurde die neue Spezifikation des Standards der objektorientieren Modellbeschreibungssprache „Unified Modeling Language“ herausgegeben (UML 2.0) und diese lässt die Diagrammtechnik des Struktogramms wieder auferstehen. Die Entwicklung neuer Techniken ersetzt also nicht umstandslos die älteren die neuen Techniken zielen vielmehr auf die Lösung neuer Probleme, die vor allem mit der zunehmenden Komplexität der Softwareentwicklung zu tun haben. rung heraus, dass Design und Spezifikation der zu erbringenden Funktionen sich gegenseitig bedingen. Angesichts dieser unterschiedlichen Anstrengungen, die noch keineswegs zu einem Abschluss gekommen sind, wird deutlich, dass die Aufgabe, fachliche Probleme durch ein in seinen formalen Eigenschaften beschreibbares System abzubilden, selbst nicht vollständig formalisierbar ist. Die Einbindung in eine soziale Praxis bildet letztendlich den Prüfstein für ein gelungenes Design. Derartige, sich beständig in Revision befindliche Informationssysteme über gemeinsame Schnittstellen miteinander zu vernetzten, ist eine Aufgabe, welche die genannten Schwierigkeiten vervielfacht (und nicht wenige Softwarefirmen in den Ruin getrieben hat). Der Ansatz der Semantic Web Initiative, so wie er gegenwärtig formuliert wird, ist zudem ein sog. generischer Ansatz. Es sollen nicht nur im Voraus bekannte Systeme miteinander verknüpft werden (so dass Transferkomponenten für den Informationsaustausch von Systemen mit unterschiedlicher internen Repräsentation (Datenmodell) entwickelt werden), vielmehr soll eine allgemeine Transferkomponente standardisiert also unabhängig von den konkreten Eigenschaften einzelner Systeme spezifiziert werden. Diese Komponente müsste, damit überhaupt eine Aussicht auf Erfüllung einer derartigen Transferleistung besteht, über das verfügen, was wir oben „Rahmenwissen“ genannt haben. Sie müsste für den Austausch von Informationen zwischen Systemen, die Informationen für unterschiedliche Zwecke auch unterschiedlich repräsentieren bzw. modellieren, auf Strukturinformationen (etwa das Datenmodell) zugreifen können und diese im Hinblick auf die Aufgabenstellung des Transfers interpretieren. An dieser Stelle geht also erneut darum, implizites Wissen zu explizieren. Das konkrete Instrument, mit dem dies geschieht, sind Sprachen, die Aufbauinformationen über Informationen enthalten (Schemainformationen) und die es ermöglichen, die Konzepte (auf die das Datenmodell bezogen ist) auszudrücken. Diese Sprachen werden, wie oben erwähnt, „Ontologien“ genannt. 2.3. Ontologien und ihre Reichweiten Die immer wieder zitierte Definition von Ontologien stammt von T.R. Gruber aus dem Jahre 1993 [4]: Eine Ontologie ist eine formale und explixite Spezifikation einer geteilten Konzeptualisierung. Unter Konzeptualisierung wird hierbei ein abstraktes Modell eines bestimmten Weltausschnitts verstanden, das die für diesen Ausschnitt relevanten Phänome identifiziert. Formal und explizit bedeutet in diesem Zusammenhang, dass es eine syntaktische Repräsentation dieser Konzeptualisierung in einer formalen Sprache gibt: definiert werden die Klassen oder Typen von Objekten, Relationen, Abhängigkeiten und Regeln des logischen Schließens (Ableitungsregeln).4 4 Man spricht von light weight ontologies, wenn diese in der Hauptsache ein Schema bereitstellen, das zur Strukturierung eines Konzeptes eingesetzt wird. Ein solches Schema bietet eine Begriffstaxonomie, Attributsund Relationsdefinitionen. Ein Thesaurus, ein Glossar oder ein Entity-Relationship-Diagramm können einer leichtgewichtigen Ontologie gegenüber durchaus als gleichwertig angesehen werden.Kommt zum Schema noch die Möglichkeit hinzu, prädikatenlogische Formeln auf Ausdrücke anzuwenden, dann Wenn wir nun diese Definition auf den genannten Problembereich beziehen den Transfer von Informationen, für den die jeweils unterschiedlichen semantischen Kontexte interpretiert werden müssen dann sehen wir einen Widerspruch. Ontologien, die als Instrumente der Integration eingesetzt werden sollen, müssen domänenspezifisch sein.5 Ihre Inanspruchnahme für eine universelle oder generische Transferkomponente könnte nur unter der Verkennung dieser prinzipiellen Einschränkung stattfinden. Die gewählten Ausdrucksmittel einer Ontologie ergeben sich wie aus dem obigen Abschnitt über Modellierung deutlich geworden sein sollte nicht aus dem Problembereich selbst. Die „Taxonomien“ einer Ontologie können gut oder schlecht designt sein ebenso wie die Relationen zwischen den Typen oder Klassen einer Ontologie. Diese syntaktischen Elemente der Ontologie sind mit hohem Aufwand formulierte explizite Annahmen über Zusammenhänge in einem Problembereich und müssen sich in konkreten fachlichen Zusammenhängen bewähren. Kurz gesagt: Sofern Informationssysteme einer „gemeinsamen Domäne“ zuzuordnen sind, können ihre Strukturen über eine solche Ontologie integriert werden. Diese Transferleistung entspricht damit aber nichts anderem als der Standardisierung von Strukturen im Aufbau von Informationssystemen, die vergleichbare fachliche Probleme lösen sollen. Ihr „Rahmenwissen“ vermag sich nicht von den Abstraktionen abzulösen, die ihrem Design zu Grunde liegen. 3. Forderung nach Transparenz Das Wort „Transparenz“ wird im technischen und im wissenschaftlichen Kontext völlig unterschiedlich gebraucht. Ein Element eines Systems (z.B. ein Protokoll oder eine Verarbeitungsstufe) ist im technischen Sinne „transparent“, wenn es vom Benutzer weder gesehen wird noch eine Kenntnis über es für die Nutzung benötigt wird. Dies stellt u.U. eine erhebliche Entlastung für den Nutzer dar. Bei der Aufbereitung von Information in wissenschaftlichen Zusammenhängen ist eine solche Transparenz nicht immer wünschenswert. Der mit dem Begriff Wissen verbundene Erkenntnisanspruch dagegen enthält Transparenz als eine Forderung. Wer etwas weiß, muss sichtbar machen können, auf welcher Grundlage die Erkenntnisse erzielt wurden. Rechenschaft muss nicht nur für das abgelegt werden, was behauptet wird, sondern auch für den Weg, auf dem die Erkenntnisse erzielt wurden. Dieser Weg ist durch Selektionen bestimmt, die zusammen mit der Erkenntnis offenzulegen sind. Ohne Transparenz in diesem Sinne kann man unseres Erachtens gar nicht von Wissenschaft reden. spricht man von heavy weight ontologies. Diese Ontologien werden mit mächtigen Modellierungswerkzeugen implementiert, die sowohl die Speicherung des ontologischen Schemas als auch den Aufbau der Inferenzmechanismen gestatten (z.B. Frame Logic). 5 Gewiss es gibt ja auch die sog. common sense Ontologien (z.B. Word Net). Ihr Nutzen für den genannten Anwendungsbereich (automatisierbare Integration von Informationssystemen im Hinblick auf eine neue Leistung) ist allerdings nicht zu sehen. Mit der Informatisierung des Wissens stellt sich das Problem der Diversifikation. An die Stelle gemeinsam geteilter Konzepte oder Modelle von Welt („Weltbilder“ im neuzeitlichen Verstande) treten fachoder domänenspezifische Reichweiten und Geltungsbedingungen von Begriffen. Dies ist nun allerdings kein Nebeneffekt oder ein irgendwie behebbarer Mangel des modernen Wissenschaftsbetriebs. Diese Spezialisierung ist die Voraussetzung von Fortschritten im Fachwissen, sie ist die Grundlage für das erhöhte Auflöseund Rekombinationsvermögen in den Wissenschaften, die immer kleinere Strukturen erforscht und immer komplexere Strukturen synthetisieren kann. Der neuzeitliche Wissenschaftsbegriff ist demzufolge schon längst überholt. Dieses Überholtsein betrifft vor allem die konstruktiven Bedingungen von Wahrheit. Wissenschaftliche Objektivität ist seit der Neuzeit das, was für ein Erkenntnissubjekt im Prinzip „transparent“ also „vor seinen Augen“ erzeugt, in seinen Konstitutionsbedingungen durchsichtig gemacht werden kann. Der hierfür benötigte gemeinsame Kontext die Welt der wissenschaftlichen Tatsachen lässt sich in diesem Sinne nicht mehr herstellen, allein schon deshalb, weil die fachwissenschaftlichen Begrifflichkeiten füreinander nicht mehr anschlussfähig sein können. Architekturanstrengungen wie die des Semantic Web, bei denen Protokollschichten unsichtbar für den Nutzer die Auswahl der verfügbaren Information einschränken und mehr noch: mittels hochselektiver Filter Informationen aus unterschiedlichen Kontexten zu neuen Inhalten aufbereiten, vereinfachen diese Problematik keineswegs, sie simplifizieren sie. Sie schaffen damit selbst einen neuen und anderen Kontext von Wissen, den der Simplifikation. Anders gesagt: die Technologien zur Modellierung von Wissen schaffen neue Möglichkeitsräume, die unerkannt zusammen mit dem durch sie verfügbar gemachten Wissen „wuchern“. Im technischen Sinne „transparente“ Verfahren zur automatischen Selektion von Informationen werden aus diesem Grunde in wirklich brauchbaren Systemen des Wissensund Informationsmanagements immer durch eine Reihe flankierender Konzepte ergänzt werden müssen: etwa durch die Bereitstellung unterschiedlicher Verfahren, die unterschiedliche Ergebnismengen zurückliefern, durch Rückmeldungen des Systems, die auch die Grenzen der Genauigkeit oder Unzulänglichkeiten der Wissensbasis verdeutlichen, durch die Beteiligung von Nutzern bei der Strukturierung von Wissensbeständen und nicht zuletzt durch die Investition in „die Köpfe“, also durch Maßnahmen, die das schulen, was in der Philosophie „Urteilskraft“ genannt wird.

برای دانلود متن کامل این مقاله و بیش از 32 میلیون مقاله دیگر ابتدا ثبت نام کنید

ثبت نام

اگر عضو سایت هستید لطفا وارد حساب کاربری خود شوید

منابع مشابه

Informatisierung der Arbeit: Praxis - Theorie - Empirie

Computeranwendungen sind als neue Arbeitsmittel dabei, Arbeit grundsätzlich zu verändern. Notwendig sind Bestandsaufnahmen dieser neuen Realität aus lokalen sowie globalen Perspektiven, um neue Handlungsperspektiven zu erarbeiten. Im Workshop soll der Versuch unternommen werden, zum Thema „Informatisierung der Arbeit“ verschiedene Perspektiven aus Praxis, Politik und Forschung zusammenzuführen....

متن کامل

Mobilität als Kennzeichen produktiver Wissensarbeit

Es werden Befunde zur Veränderung der Arbeitswelt zusammengefasst, die als direkte oder indirekte Konsequenzen der Wissensordnung gesehen werden können. Im Anschuss werden deren Konsequenzen für das Verhältnis von Individuum und Organisation diskutiert. Dabei wird deutlich, dass Mobilität im Sinne von Anschlussfähigkeit eine strategische Schlüsselkategorie für Individuum und Organisation, ist. ...

متن کامل

Jahrestagung 1993 der GLDV in Kiel. Sprachtechnologie: Methoden, Werkzeuge, Perspektiven. 3.3.-5.3.1993

Die Tagung wurde begonnen mit einem Einleitungspanel unter der Leitung von W. Lenders (Bonn), das in diesem Band dokumentiert wird. Das Thema der Tagung wurde in 4 Ergebnis dieser Modifikation sind wesentlich ausdrucksfähigere Aktionsquotientenkurven, anders gesagt: erst nach dieser Veränderung sind die Kurven überhaupt aussagekräftig.-P. Schmidt (Trier) stellte in seiner Untersuchung zu "Metri...

متن کامل

Eine IT-Referenzarchitektur für Hochschulen: Vom generischen Modell zur spezifischen Lösung

Der vorliegende Beitrag zielt auf die heterogene IT-Landschaft von Hochschulen und sucht nach einer zielführenden Möglichkeit, die Abstimmung zwischen geschäftlicher und technischer Seite zu optimieren. Hierbei soll eine weitgehend generische Referenzarchitektur vorgestellt werden, die auf der einen Seite die Hochschule aus geschäftlicher Sicht beschreibt und auf der anderen Seite eine IT-Sicht...

متن کامل

Offene Systeme in der Frühphase des Internet

Mitte der 1970er Jahre entwickelten Wissenschaftler und Ingenieure aus dem damals neuen Feld der Computerkommunikation das Konzept der „offenen Systeme“. Offenheit sollte dabei ein Konzept für die Gestaltung der technischen Aspekte eines Netzwerks sein, bei dem ein komplexes System in eine Vielzahl von kleinen und gut definierten und deshalb besser beherrschbaren Komponenten aufgeteilt wird. Da...

متن کامل

ذخیره در منابع من


  با ذخیره ی این منبع در منابع من، دسترسی به آن را برای استفاده های بعدی آسان تر کنید

برای دانلود متن کامل این مقاله و بیش از 32 میلیون مقاله دیگر ابتدا ثبت نام کنید

ثبت نام

اگر عضو سایت هستید لطفا وارد حساب کاربری خود شوید

عنوان ژورنال:

دوره   شماره 

صفحات  -

تاریخ انتشار 2004